Информацию можно разделить на – — — — —

Содержание

Классификация информации

Информация (от лат. informatio, разъяснение, изложение, осведомленность) — любые сведения и данные, отражающие свойства объектов в природных, социальных и технических системах и передаваемые звуковым, графическим (в т. ч. письменным) или иным способом без применения или с применением технических средств.

Информацию можно разделить на виды по различным критериям:

1. по способу восприятия:

  • Визуальная — воспринимаемая органами зрения.

  • Аудиальная — воспринимаемая органами слуха.

  • Тактильная — воспринимаемая тактильными рецепторами.

  • Обонятельная — воспринимаемая обонятельными рецепторами.

  • Вкусовая — воспринимаемая вкусовыми рецепторами.

2. по форме представления:

  • Текстовая — передаваемая в виде символов, предназначенных обозначать лексемы языка.

  • Числовая — в виде цифр и знаков, обозначающих математические действия.

  • Графическая — в виде изображений, предметов, графиков.

  • Звуковая — устная или в виде записи и передачи лексем языка.

3. по назначению:

  • Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.

  • Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.

  • Секретная — передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.

  • Личная (приватная) — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

4. по значению:

  • Актуальная — информация, ценная в данный момент времени.

  • Достоверная — информация, полученная без искажений.

  • Понятная — информация, выраженная на языке, понятном тому, кому она предназначена.

  • Полная — информация, достаточная для принятия правильного решения или понимания.

  • Полезная — полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

5. по истинности:

  • истинная

  • ложная

Информация обладает следующими свойствами:

  1. достоверность 

Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация обладает свойством устаревать, т. е. переста­ет отражать истинное положение дел.

  1. полнота

Информация полна, если ее достаточно для понимания и принятия ре­шений. Как неполная, так и избыточная информация сдерживает принятие ре­шений или может повлечь ошибки.

  1. точность

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления.

  1. ценность

Ценность информации зависит от того, насколько она важна для реше­ния задачи, а также от того, насколько в дальнейшем она найдет применение в каких-либо видах деятельности человека.

  1. своевременность

Только своевременно полученная информация может принести ожидае­мую пользу. Одинаково нежелательны как преждевременная подача информации (когда она еще не может быть усвоена), так и ее задержка.

  1. понятность 

Если ценная и своевременная информация выражена непонятным обра­зом, она может стать бесполезной. Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

  1. доступность

Информация должна преподноситься в доступной (по уровню восприя­тия) форме. Поэтому одни и те же вопросы по-разному излагаются в школь­ных учебниках и научных изданиях.

  1. краткость

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, всевозмож­ных инструкциях.

Количество информации можно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений. Это позволяет количественно измерять информацию. Существует формула, которая связывает между собой количество возможных информационных сообщений N и количество информации I, которое несет полученное сообщение: N = 2i (формула Хартли). Иногда записывается иначе. Так как наступление каждого из N возможных событий имеет одинаковую вероятность 

p = 1 / N, то N = 1 / p и формула имеет вид I = log2 (1/p) = — log2 p

Если события неравновероятные, то: hi = log2 1/pi = — log2 pi,

где pi — вероятность появления в сообщении i-го символа алфавита. Удобнее в качестве меры количества информации пользоваться не значением hi , а средним значением количества информации, приходящейся на один символ алфавита H = S pi hi = — S pi log2 pi

Значение Н достигает максимума при равновероятных событиях, то есть при равенстве всех p

i pi = 1 / N

В этом случае формула Шеннона превращается в формулу Хартли.

За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица названа битом.

Минимальной единицей измерения количества информации является бит, а следующей по величине единицей — байт, причем:

1 байт = 8 битов = 23 битов.

В информатике система образования кратных единиц измерения несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в качестве множителей кратных единиц используют коэффициент 10n, где n = 3, 6, 9 и т. д., что соответствует десятичным приставкам «Кило» (103), «Мега» (10

6), «Гига» (109) и т. д.

В компьютере информация кодируется с помощью двоичной знаковой системы, и поэтому в кратных единицах измерения количества информации используется коэффициент 2n

Так, кратные байту единицы измерения количества информации вводятся следующим образом:

1 килобайт (Кбайт) = 210 байт = 1024 байт;

1 мегабайт (Мбайт) = 210 Кбайт = 1024 Кбайт;

1 гигабайт (Гбайт) = 210 Мбайт = 1024 Мбайт.

Количество информации в сообщении. Сообщение состоит из последовательности знаков, каждый из которых несет определенное количество информации.

Если знаки несут одинаковое количество информации, то количество информации Ic в сообщении можно подсчитать, умножив количество информации Iз, которое несет один знак, на длину кода (количество знаков в сообщении) К:

Ic = Iз  K

Так, каждая цифра двоичного компьютерного кода несет информацию в 1 бит. Следовательно, две цифры несут информацию в 2 бита, три цифры — в 3 бита и т. д. Количество информации в битах равно количеству цифр двоичного компьютерного кода

Двоичный компьютерный код

1

0

1

0

1

Количество информации

1 бит

1 бит

1 бит

1 бит

1 бит

Информацио́нная энтропи́я — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

Энтропия стала использоваться как мера полезной информации в процессах передачи сигналов по проводам. Под информацией Шеннон понимал сигналы нужные, полезные для получателя. Неполезные сигналы, с точки зрения Шеннона, это шум, помехи. Если сигнал на выходе канала связи является точной копией сигнала на входе то, с точки зрения теории информации, это означает отсутствие энтропии. Отсутствие шума означает максимум информации. Взаимосвязь энтропии и информации нашло отражение в формуле:

H + Y = 1

где Н – энтропия, Y – информация. Этот вывод количественно был обоснован Бриллюэном .

Для расчета энтропии Шеннон предложил уравнение, напоминающее классическое выражение энтропии, найденное Больцманом. H = ∑Pi log2 1/Pi = -∑Pi log2 Pi,

где Н – энтропия Шеннона, Pi — вероятность некоторого события.

Информационная двоичная энтропия для независимых случайных событий с возможными состояниями (от до , — функция вероятности) рассчитывается по формуле:

Эта величина также называется средней энтропией сообщения. Величина называется частной энтропией, характеризующей только -e состояние.

Таким образом, энтропия события является суммой с противоположным знаком всех произведений относительных частот появления события , умноженных на их же двоичные логарифмы. Это определение для дискретных случайных событий можно расширить для функции распределения вероятностей.

studfiles.net

Классификация информации

Информация (от лат. informatio, разъяснение, изложение, осведомленность) — любые сведения и данные, отражающие свойства объектов в природных, социальных и технических системах и передаваемые звуковым, графическим (в т. ч. письменным) или иным способом без применения или с применением технических средств.

Информацию можно разделить на виды по различным критериям:

1. по способу восприятия:

  • Визуальная — воспринимаемая органами зрения.

  • Аудиальная — воспринимаемая органами слуха.

  • Тактильная — воспринимаемая тактильными рецепторами.

  • Обонятельная — воспринимаемая обонятельными рецепторами.

  • Вкусовая — воспринимаемая вкусовыми рецепторами.

2. по форме представления:

  • Текстовая — передаваемая в виде символов, предназначенных обозначать лексемы языка.

  • Числовая — в виде цифр и знаков, обозначающих математические действия.

  • Графическая — в виде изображений, предметов, графиков.

  • Звуковая — устная или в виде записи и передачи лексем языка.

3. по назначению:

  • Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.

  • Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.

  • Секретная — передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.

  • Личная (приватная) — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

4. по значению:

  • Актуальная — информация, ценная в данный момент времени.

  • Достоверная — информация, полученная без искажений.

  • Понятная — информация, выраженная на языке, понятном тому, кому она предназначена.

  • Полная — информация, достаточная для принятия правильного решения или понимания.

  • Полезная — полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

5. по истинности:

  • истинная

  • ложная

Информация обладает следующими свойствами:

  1. достоверность 

Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация обладает свойством устаревать, т. е. переста­ет отражать истинное положение дел.

  1. полнота

Информация полна, если ее достаточно для понимания и принятия ре­шений. Как неполная, так и избыточная информация сдерживает принятие ре­шений или может повлечь ошибки.

  1. точность

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления.

  1. ценность

Ценность информации зависит от того, насколько она важна для реше­ния задачи, а также от того, насколько в дальнейшем она найдет применение в каких-либо видах деятельности человека.

  1. своевременность

Только своевременно полученная информация может принести ожидае­мую пользу. Одинаково нежелательны как преждевременная подача информации (когда она еще не может быть усвоена), так и ее задержка.

  1. понятность 

Если ценная и своевременная информация выражена непонятным обра­зом, она может стать бесполезной. Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

  1. доступность

Информация должна преподноситься в доступной (по уровню восприя­тия) форме. Поэтому одни и те же вопросы по-разному излагаются в школь­ных учебниках и научных изданиях.

  1. краткость

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, всевозмож­ных инструкциях.

Количество информации можно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений. Это позволяет количественно измерять информацию. Существует формула, которая связывает между собой количество возможных информационных сообщений N и количество информации I, которое несет полученное сообщение: N = 2i (формула Хартли). Иногда записывается иначе. Так как наступление каждого из N возможных событий имеет одинаковую вероятность  p = 1 / N, то N = 1 / p и формула имеет вид I = log2 (1/p) = — log2 p

Если события неравновероятные, то: hi = log2 1/pi = — log2 pi,

где pi — вероятность появления в сообщении i-го символа алфавита.Удобнее в качестве меры количества информации пользоваться не значением hi , а средним значением количества информации, приходящейся на один символ алфавита H = S pi hi = — S pi log2 pi

Значение Н достигает максимума при равновероятных событиях, то есть при равенстве всех pi pi = 1 / N

В этом случае формула Шеннона превращается в формулу Хартли.

За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица названа битом.

Минимальной единицей измерения количества информации является бит, а следующей по величине единицей — байт, причем:

1 байт = 8 битов = 23 битов.

В информатике система образования кратных единиц измерения несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в качестве множителей кратных единиц используют коэффициент 10n, где n = 3, 6, 9 и т. д., что соответствует десятичным приставкам «Кило» (103), «Мега» (106), «Гига» (109) и т. д.

В компьютере информация кодируется с помощью двоичной знаковой системы, и поэтому в кратных единицах измерения количества информации используется коэффициент 2n

Так, кратные байту единицы измерения количества информации вводятся следующим образом:

1 килобайт (Кбайт) = 210 байт = 1024 байт;

1 мегабайт (Мбайт) = 210 Кбайт = 1024 Кбайт;

1 гигабайт (Гбайт) = 210 Мбайт = 1024 Мбайт.

Количество информации в сообщении. Сообщение состоит из последовательности знаков, каждый из которых несет определенное количество информации.

Если знаки несут одинаковое количество информации, то количество информации Ic в сообщении можно подсчитать, умножив количество информации Iз, которое несет один знак, на длину кода (количество знаков в сообщении) К:

Ic = Iз  K

Так, каждая цифра двоичного компьютерного кода несет информацию в 1 бит. Следовательно, две цифры несут информацию в 2 бита, три цифры — в 3 бита и т. д. Количество информации в битах равно количеству цифр двоичного компьютерного кода

Двоичный компьютерный код

1

0

1

0

1

Количество информации

1 бит

1 бит

1 бит

1 бит

1 бит

Информацио́нная энтропи́я — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

Энтропия стала использоваться как мера полезной информации в процессах передачи сигналов по проводам. Под информацией Шеннон понимал сигналы нужные, полезные для получателя. Неполезные сигналы, с точки зрения Шеннона, это шум, помехи. Если сигнал на выходе канала связи является точной копией сигнала на входе то, с точки зрения теории информации, это означает отсутствие энтропии. Отсутствие шума означает максимум информации. Взаимосвязь энтропии и информации нашло отражение в формуле: H + Y = 1

где Н – энтропия, Y – информация. Этот вывод количественно был обоснован Бриллюэном .

Для расчета энтропии Шеннон предложил уравнение, напоминающее классическое выражение энтропии, найденное Больцманом. H = ∑Pi log2 1/Pi = -∑Pi log2 Pi,

где Н – энтропия Шеннона, Pi — вероятность некоторого события.

Информационная двоичная энтропия для независимых случайных событий с возможными состояниями (от до , — функция вероятности) рассчитывается по формуле:

Эта величина также называется средней энтропией сообщения. Величина называется частной энтропией, характеризующей только -e состояние.

Таким образом, энтропия события является суммой с противоположным знаком всех произведений относительных частот появления события , умноженных на их же двоичные логарифмы. Это определение для дискретных случайных событий можно расширить для функции распределения вероятностей.

studfiles.net

Классификация информации. Информацию можно разделить на виды по разным критериям: по способу восприятия: — Мегаобучалка

Информацию можно разделить на виды по разным критериям:

  • по способу восприятия:
    • Визуальная — воспринимаемая органами зрения.
    • Аудиальная — воспринимаемая органами слуха.
    • Тактильная — воспринимаемая тактильными рецепторами.
    • Обонятельная — воспринимаемая обонятельными рецепторами.
    • Вкусовая — воспринимаемая вкусовыми рецепторами.
  • по форме представления:
    • Текстовая — передаваемая в виде символов, предназначенных обозначать лексемы языка.
    • Числовая — в виде цифр и знаков, обозначающих математические действия.
    • Графическая — в виде изображений, предметов, графиков.
    • Звуковая — устная или в виде записи передача лексем языка аудиальным путём.
  • по предназначению:
    • Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.
    • Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.
    • Личная — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

· по значению:

· Актуальная — информация, ценная в данный момент времени.

· Достоверная — информация, полученная без искажений.

· Понятная — информация, выраженная на языке, понятном тому,

кому она предназначена.

· Полная — информация, достаточная для принятия правильного решения или понимания.

· Полезная — полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

· по истинности:

· истинная

· ложная.

Информация и коммуникация

 

Как показывает анализ литературы, понятие и термин «коммуникация» неразрывны связаны с понятием и термином «информация». Его так или иначе включают десятки и сотни дефиниций коммуникации, содержащихся в различных словарях, энциклопедиях, популярных и научных работах. Они фиксируют тот факт, что коммуникация есть



· передача информации от человека к человеку,

· акт передачи информации,

· процесс передача информации от одной системы к другой,

· обмен информацией любого вида между различными системами связи,

· передача сообщения, сообщение,

· передача информационных сигналов, знаков, как вербального, так и невербального общения,

· информационное взаимодействие,

· обмен людей между собой различными представлениями, идеями, интересами, настроениями, чувствами, установками,

· перемещение чего-то, в т.ч. информации, сообщения, сигнала, значения и т.д.

· тип взаимодействия между людьми, предполагающий информационный обмен.

· обмен «сухой», деловой информацией и т.д.

Ряд авторов в своих определениях правильно, на наш взгляд, акцентируют тот момент, что коммуникация — это не просто информационный обмен, информационное взаимодействие, а

Ø смысловой идеально-содержательный аспект, сторона социального взаимодействия.

Ø процесс передачи (обмена) некоторого мысленного содержания, заключенного в сообщении (информации) в виде неких знаков.

Итак подчеркнем, что социальная коммуникация – это именно смысловая, идеально-содержательная сторона, аспект информационного взаимодействия субъектов. Причем, определяющее значение имеет не физическое пространство и время, в которой осуществляется коммуникация, а социальное пространство и социальное время ее осуществления.

Для человека важна не информация сама по себе, а ее смысловое содержание. Ее качества и ценностб становятся очевидными лишь тогда, когда полученная информация является доступной, понятной, осмысленной.

Услышав или увидев фразу, произнесенную или написанную на языке, которого человек не знает, он получает информацию, но не может определить её смысл и должным образом воспользоваться ею. Такая коммуникация обессмысливается и не приносит ожидаемого результата. Чтобы избежать этого необходимо договориться о смысловом содержании слов или др.знаков, в которых заключено содержание и смысл информации, о правилах кодирования информации.

Таким образом, говоря о соотношении информации и коммуникации, будем считать, что коммуникация есть движение (передача, обмен) информации, но не всякое такое движение является социальной коммуникацией. Отсюда следует, что важнейшим признаком человеческой коммуникации является движение, передача или обмен смыслов между коммуникантами.

Краткие выводы

 

1. Информация является одним из основных универсальных и неотъемлемых свойств материи. Она есть отражение реального мира, отраженное разнообразие, обозначение содержания. Информация существует в любом материальном объекте или процессе в виде многообразия его состояний и передается от объекта к объекту в процессе их взаимодействия.

2. Для передачи информация (коммуникации) необходимо наличие материального носителя информации и ряда свойств у источника и приемника информации, обеспечивающих реальное информационное взаимодействие.

3. Информация объективна, но нематериальна. Она существует независимо от нашего сознания и присутствует в нем только как результат нашего взаимодействия с внешним миром. На бытовом уровне информация – это сведения, знания, являющееся объектом хранения, передачи и преобразования.

4. Информация, в виде принимаемых нами сигналов, имеет определенный смысл, фиксируемый в понятиях (словах) и других формах. Смысл это не информация. Если информация существует только на материальном носителе, то смысл существует в сознании человека в виде слов, образов и ощущений. Они составляют вторичную, или семантическую информацию, которая кодирует смысл полученной первичной информации

5. В человеческом обществе решающее значение приобретает не сама информация, а её смысловое содержание. Человек в своей деятельности использует именно смысловые понятия, содержание сообщения, а не информацию «вообще» как таковую.

6. Для передачи смыслового содержания информации необходимы кроме всего прочего общие правила информационного взаимодействия между источником и приемником, которые устанавливаются в процессе общения.

7. Способом информационного обмена являются различные знаковые системы и прежде всего – речь, а так же другие средства передачи информации.

 

 

Литература

1. Винер Н. Человек управляющий. – СПб.: Питер, 2001.

2. Гавра Д.П. Основы теории коммуникации. – СПб.: Питер, 2011.

3. Информатика. Энциклопедический словарь для начинающих. Под ред. Д.А.Поспелова — Москва.: Педагогика-Пресс, 1994.

4. Информация // Современный словарь иностранных слов. М.: Рус. яз., 1999.

5. Информация // http://ru.wikipedia.org/wiki/

6. Коммуникация // http://vslovare.ru/slovo/psihologicheskiij-slovar/kommunikatzija

7. Стратонович Р. Л. Теория информации. М.: Сов. радио, 1975.

8. Терминологический словарь по основам информатики и вычислительной техники. Под ред. А.П.Ершова, Н.М.Шанского.­ — М.: Просвещение, 1991.

9. Урсул А. Д. Проблема информации в современной науке. — М.: Наука, 1975.

10. Шрайберг Я.Л, Гончаров М.В. Справочное руководство по основам информатики и вычислительной техники. – М.: Финансы и статистика, 1995.

 

 

Лекция 3.

 

megaobuchalka.ru

Виды информации



Информацию можно разделить на виды по различным критериям:

По объектам информационного взаимодействия:
♦ Человек — человек
♦ Человек — автомат.
♦ Автомат — автомат.
♦ Обмен сигналами в животном и растительном мире.
♦ Передача признаков от клетки к клетке
♦ Передача признаков от организма к организму

По способу восприятия:
♦ Визуальная — воспринимаемая органами зрения.
♦ Звуковая — воспринимаемая органами слуха.
♦ Тактильная — воспринимаемая тактильными рецепторами.
♦ Обонятельная — воспринимаемая обонятельными рецепторами.
♦ Вкусовая — воспринимаемая вкусовыми рецепторами.

По форме представления:
♦ Текстовая — передаваемая в виде символов, предназначенных обозначать лексемы языка.
♦ Числовая — в виде цифр и знаков, обозначающих математические действия.
♦ Графическая — в виде изображений, предметов, графиков.
♦ Звуковая — устная или в виде записи и передачи лексем языка аудиальным путём.
♦ Видеоинформация — передаваемая в виде видеозаписи.

По назначению:
♦ Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.
♦ Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.
♦ Секретная — передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.
♦ Личная (приватная) — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

По значению:
♦ Актуальная — информация, ценная в данный момент времени.
♦ Достоверная — информация, полученная без искажений.
♦ Понятная — информация, выраженная на языке, понятном тому, кому она предназначена.
♦ Полная — информация, достаточная для принятия правильного решения или понимания.
♦ Полезная — полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

По истинности:
♦ истинная
♦ ложная

xn—-7sbbfb7a7aej.xn--p1ai

информация

Слово информация

Слово информация в русском языке имеет происхождение от латинского слова informatio, которое имеет значение — разъяснение, изложение, осведомленность. Значение слова информация в настоящее время является предметом дискуссий, поэтому не существует единого определения информации как научного термина.

Основные интернет термины и понятия

Особенности информации заключаются в том, что она не является веществом или энергией, хотя отражает действительность в виде распределения материи и энергии во времени и в пространстве и процессов их перераспределения. Однако информация это свойство лишь живых организмов, способных производить фиксирование информации. Источником информации для живых организмов являются органы чувств.

Информация не материальна, хотя для ее существования нужны материальные носители информации (первоначально — белки в теле организма). Как правило, чем сложнее объект материального мира или процесс, тем больше информации он в себе несет и, наоборот, чем сложнее организм, собирающий информацию, тем больше вариантов его поведения может соответствовать одной и той же полученной информации.

Понятие и виды информации

Знания, как полученная и сохраняемая информация об окружающих предметах и явлениях, являются жизненно важными для всех живых организмов. Человек, в отличие от других живых организмов, может использовать специальные приборы, которые позволяют расширить познания, которые было бы невозможно получить за счет органов чувств. Кроме того человек может использовать разнообразные материальные носители информации, с помощью которых можно передать информацию остальным людям, которые лично не присутствовали при сборе информации, но в общем случае, заинтересованы в обладании ей.

Определение информации

Существует определение понятия информация от К.Шеннона, согласно которой:

определение информации — это снятая неопределенность, т.е. сведения, которые должны снять в той или иной степени существующую у потребителя до их получения неопределенность, расширить его понимание объекта полезными сведениями.

Термин информация

Термин информация Википедия определяет следующим образом:

Информация (от лат. informatio, разъяснение, изложение, осведомленность) — сведения о чем-либо, независимо от формы их представления.

Смысл информация в бытовом значении — сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством. Информация есть характеристика материи, которую дают ей живые существа, включая человека.

Классификация информации

Особенности восприятия информации человеком заключаются в том, что у него известно всего пять органов чувств. Определение виды информации по способу ее получения можно разделить на следующие виды:

  • визуальная информация— воспринимаемая органами зрения;
  • аудиальная информация — воспринимаемая органами слуха;
  • тактильная информация — воспринимаемая тактильными рецепторами;
  • обонятельная информация — воспринимаемая обонятельными рецепторами;
  • вкусовая информация — воспринимаемая вкусовыми рецепторами.

Особенность информации

Особенность информации заключается еще и в том, что информация должна быть, не только получена, но и сохранена, а возможно и передана однотипному организму. Для этого живые организмы используют разные способы, а люди научились передавать информацию кроме звуковых сигналов при помощи символов (слов, букв, чисел), находящихся на каком-то материальном носителе информации. Необходимость обмена информации привела к появлению языка, при помощи которого стали общаться люди на одной территории.

Виды информации

Сегодня термин информация можно применить для следующих видов информации:

  • текстовая информация — передаваемая в виде символов, предназначенных обозначать лексемы языка;
  • числовая информация — в виде цифр и знаков, обозначающих математические действия;
  • графическая информация — в виде изображений, предметов, графиков;
  • звуковая информация — устная или в виде записи и передачи лексем языка аудиальным путём.

Роль информации в жизни

Роль информации в жизни современных людей настолько велика, что произошло изменение самой физиологии человека. В настоящее время детство и юность, в течение которых от рождения человек усваивает основные понятия, составляет треть срока жизни. Без определенного объема информации – усвоения социальных знаний – человек не может функционировать как социальное существо – как член общества.

Понятие информации по назначению

В современном мире обычно выделяют виды информации по назначению:

  • массовая информация — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума;
  • специальная информация— содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация;
  • секретная информация — передаваемая узкому кругу лиц и по закрытым (защищённым) каналам;
  • личная информация (приватная информация) — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

Понятие информации по значению

  • актуальная информацияинформация, ценная в данный момент времени;
  • достоверная информацияинформация, полученная без искажений;
  • Понятная информацияинформация, выраженная на языке, понятном тому, кому она предназначена;
  • Полная информацияинформация, достаточная для принятия правильного решения или понимания;
  • Полезная информацияполезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

Понятие информации по истинности

  • истинная информация – соответствует действительности;
  • ложная информация – заведомо противоречит фактам.

Параметры информации

Основными параметрами информации являются:

  • количество информации;
  • содержание информации;
  • ценностью информации.

Боле подробную информацию о понятии информация вы найдет в статье: Информация.


Данная статья написана для пояснения положений разделов Микрозаймы в Тамбове, Экспресс кредит в Тамбове, Кредит наличными в Тамбове, Кредитные карты Тамбов. Ссылка на данную статью: http://design-for.net/page/informacija


Как правило, бытовые понятия экономики часто не совпадают с юридическими формулировками, поэтому, если вы все же решились взять деньги в долг, надо изучить значение основных экономических терминов.

Основные экономические понятия содержит мой Экономический толковый словарь:

design-for.net

Какие бывают носители информации?

Вся информация в компьютере хранится на дисках. Диск – это общее название устройств хранения информации, таких как жесткий диск (винчестер), гибкий диск (дискета), компакт-диск (CD-ROM, CD-R, CD-RW, DVD-диск). Если говорят: «программа хранится на диске», то слово «диск» может означать любое из названных устройств

  1. Какое обозначение присваивает система диску?

Операционная система присваивает каждому диску обозначение при помощи латинской буквы и двоеточия. Например, гибкий диск почти всегда обозначается как А:. Жесткий диск принято делить на несколько разделов, каждый из которых обозначается своей буквой, начиная с С:. Следующие буквы после разделов жесткого диска используются для приводов компакт-дисков, DVD и др. Рассмотрим для примера компьютер, в котором имеется: привод гибких дисков, жесткий диск, разделенный на два раздела, и привод компакт-дисков. В таком случае операционная система назначит устройствам следующие буквы: А: – приводу гибких дисков, С: и D: – первому и второму разделу винчестера, Е: – приводу компакт-дисков.

  1. Что такое файл?

Файл – это информация определенного типа, размещенная на диске, которая имеет имя и является единым целым. Имя может иметь до 255 русских или латинских символов, за исключением следующих – \ / : * ? « < > |.

  1. Как образуется имя файла и полное имя файла?

Существуют файлы различных типов: программы, текстовые документы, рисунки, таблицы и др. Для определения типа файла служит расширение – обычно три символа, которые добавляются через точку к имени файла. Например, файл «Лунный цветок.bmp» имеет имя «Лунный цветок» и расширение «.bmp», которое указывает, что тип данного файла – точечный рисунок

Таким образом, имя файла состоит из двух частей: собственно имя – название файла и идентификатор, определяющий его тип. Имя файла чаще всего может быть выбрано произвольно самим пользователем. Расширение, наоборот жестко привязано к типу файла, и менять его противопоказано.

  1. Какие бывают расширения?

Рассмотрим ещё несколько стандартных расширений:

  1. exe – обозначает исполняемый файл, хранящий в себе программу. Например: winword.exe;

  2. mp3, wav – звук в цифровом формате;

  3. avi – видеозапись;

  4. txt, doc – текстовые файлы;

  5. bmp, jpg – графическая информация;

  6. xls – таблица;

  7. htm, html – гипертекстовый документ Интернет;

  8. arj, zip, rar – файлы архивов.

Расширение указывает операционной системе, как следует обрабатывать данный файл. Например, любой файл с расширением .exe операционная система будет пытаться выполнить как программу, а с расширением .bmp – будет выводить на экран с помощью программы просмотра изображений.

  1. Как в ос Windows xp можно посмотреть информацию о типе файла

По умолчанию операционная система скрывает известные расширения файлов от пользователя, а узнать о типе любого файла можно с помощью команды контекстного меню Свойства

  1. На какие категории можно разделить файлы всех типов

Существуют файлы различных типов: программы, текстовые документы, рисунки, таблицы и др. Для определения типа файла служит расширение – обычно три символа, которые добавляются через точку к имени файла. Например, файл «Лунный цветок.bmp» имеет имя «Лунный цветок» и расширение «.bmp», которое указывает, что тип данного файла – точечный рисунок. Рассмотрим ещё несколько стандартных расширений:

  1. exe – обозначает исполняемый файл, хранящий в себе программу. Например: winword.exe;

  2. mp3, wav – звук в цифровом формате;

  3. avi – видеозапись;

  4. txt, doc – текстовые файлы;

  5. bmp, jpg – графическая информация;

  6. xls – таблица;

  7. htm, html – гипертекстовый документ Интернет;

  8. arj, zip, rar – файлы архивов.

studfiles.net

Информацию можно разделить на виды: текстовая, числовая, графическая, звуковая


Термин

Определение

Информация

сведения о лицах, предметах, фактах, явлениях, процессах, событиях реального мира независимо от их представления. Информацию можно разделить на виды: текстовая, числовая, графическая, звуковая.

Вид информации

классификация информации. По способу представления информация делится на: текстовую, звуковую, графическую, числовую.

Свойство информации

качественный признак информации. Информация имеет следующие свойства: актуальность, полезность, объективность, полнота, достоверность, объективность.

Информационный процесс

совокупность последовательных действий (операций), производимых над информацией, для получения какого-либо результата. Информация проявляется именно в информационных процессах.

Хранение информации

информационный процесс, осуществляемый с помощью её переноса на некоторые материальные носители.

Обработка информации

информационный процесс получения одних «информационных объектов» из других «информационных объектов» путем выполнения некоторых алгоритмов преобразования.

Передача информации
информационный процесс пространственного переноса её от источника к получателю (адресату)

Текстовая информация

вид информации, представленный в форме символов, предназначенных обозначать лексемы языка.

Числовая информация

вид информации, представленный в форме цифр и знаков, обозначающих математические действия.

Графическая информация

вид информации, представленный в форме изображений, предметов, графиков.

Звуковая информация

вид информации в форме записи и передачи аудиальным путём.

Объективность информации

свойство информации, при котором она не зависит от чьего-либо мнения, суждения.

Достоверность информации

свойство информации, при котором она отражает истинное положение дел

Полнота информации

свойство информации, при котором ее достаточно для понимания и принятия решения.

Актуальность информации

свойство информации, отражающее важность, существенность для настоящего времени.

Полезность информации

свойство информации, которое оценивается по тем задачам, которые можно решить с ее помощью.

Носитель информации

любой материальный объект, на котором осуществляется хранение информации в течение длительного времени.

Гибкий магнитный диск
носитель информации, представляющий собой гибкий пластиковый диск в защитной оболочке.

Жесткий магнитный диск

наиболее массовое запоминающее устройство большой емкости, в котором носитель информации — круглые алюминиевые пластины — платтеры, обе поверхности которых покрыты слоем магнитного материала.

Компакт-диск

носитель информации, выполненный с использованием специальной оптической технологии.

www.birmaga.ru

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *